The 1$^{\text{st}}$ Workshop on Maritime Computer Vision (MaCVi) 2023 focused on maritime computer vision for Unmanned Aerial Vehicles (UAV) and Unmanned Surface Vehicle (USV), and organized several subchallenges in this domain: (i) UAV-based Maritime Object Detection, (ii) UAV-based Maritime Object Tracking, (iii) USV-based Maritime Obstacle Segmentation and (iv) USV-based Maritime Obstacle Detection. The subchallenges were based on the SeaDronesSee and MODS benchmarks. This report summarizes the main findings of the individual subchallenges and introduces a new benchmark, called SeaDronesSee Object Detection v2, which extends the previous benchmark by including more classes and footage. We provide statistical and qualitative analyses, and assess trends in the best-performing methodologies of over 130 submissions. The methods are summarized in the appendix. The datasets, evaluation code and the leaderboard are publicly available at https://seadronessee.cs.uni-tuebingen.de/macvi.
translated by 谷歌翻译
Occluded person re-identification (ReID) is a person retrieval task which aims at matching occluded person images with holistic ones. For addressing occluded ReID, part-based methods have been shown beneficial as they offer fine-grained information and are well suited to represent partially visible human bodies. However, training a part-based model is a challenging task for two reasons. Firstly, individual body part appearance is not as discriminative as global appearance (two distinct IDs might have the same local appearance), this means standard ReID training objectives using identity labels are not adapted to local feature learning. Secondly, ReID datasets are not provided with human topographical annotations. In this work, we propose BPBreID, a body part-based ReID model for solving the above issues. We first design two modules for predicting body part attention maps and producing body part-based features of the ReID target. We then propose GiLt, a novel training scheme for learning part-based representations that is robust to occlusions and non-discriminative local appearance. Extensive experiments on popular holistic and occluded datasets show the effectiveness of our proposed method, which outperforms state-of-the-art methods by 0.7% mAP and 5.6% rank-1 accuracy on the challenging Occluded-Duke dataset. Our code is available at https://github.com/VlSomers/bpbreid.
translated by 谷歌翻译
Deep motion forecasting models have achieved great success when trained on a massive amount of data. Yet, they often perform poorly when training data is limited. To address this challenge, we propose a transfer learning approach for efficiently adapting pre-trained forecasting models to new domains, such as unseen agent types and scene contexts. Unlike the conventional fine-tuning approach that updates the whole encoder, our main idea is to reduce the amount of tunable parameters that can precisely account for the target domain-specific motion style. To this end, we introduce two components that exploit our prior knowledge of motion style shifts: (i) a low-rank motion style adapter that projects and adjusts the style features at a low-dimensional bottleneck; and (ii) a modular adapter strategy that disentangles the features of scene context and motion history to facilitate a fine-grained choice of adaptation layers. Through extensive experimentation, we show that our proposed adapter design, coined MoSA, outperforms prior methods on several forecasting benchmarks.
translated by 谷歌翻译
人群中的人类轨迹预测提出了建模社交相互作用和输出无碰撞多模式分布的挑战。在社会生成对抗网络(SGAN)成功之后,最近的作品提出了各种基于GAN的设计,以更好地模拟人群中的人类运动。尽管在降低基于距离的指标方面的性能卓越,但当前网络仍无法输出社会可接受的轨迹,这是模型预测中的高碰撞所证明的。为此,我们介绍了SGANV2:改进的符合安全性的SGAN架构,配备了时空交互模型和基于变压器的鉴别器。时空建模能力有助于更好地学习人类的社交互动,而基于变压器的歧视器设计改善了时间序列建模。此外,SGANV2即使在测试时间也通过协作抽样策略来利用学到的歧视者,该策略不仅完善了碰撞轨迹,而且还可以防止模式崩溃,这是GAN训练中的常见现象。通过对多个现实世界和合成数据集进行广泛的实验,我们证明了SGANV2提供社会兼容的多模式轨迹的功效。
translated by 谷歌翻译
安全仍然是自动驾驶的主要问题,为了在全球部署,他们需要提前充分预测行人的动作。尽管对粗粒(人体中心预测)和细粒度预测(人体关键点的预测)进行了大量研究,但我们专注于3D边界框,这是对人类的合理估计,而无需对自动驾驶汽车进行复杂的运动细节进行建模。这具有灵活性,可以在现实世界中更长的视野中进行预测。我们建议这个新问题,并为行人的3D边界框预测提供了一个简单而有效的模型。该方法遵循基于复发性神经网络的编码器编码器体系结构,我们的实验在合成(JTA)和现实世界(Nuscenes)数据集中显示出其有效性。博学的表示形式具有有用的信息来增强其他任务的绩效,例如行动预期。我们的代码可在线提供:https://github.com/vita-epfl/bounding-box-prediction
translated by 谷歌翻译
强大的模拟器高度降低了在培训和评估自动车辆时对真实测试的需求。数据驱动的模拟器蓬勃发展,最近有条件生成对冲网络(CGANS)的进步,提供高保真图像。主要挑战是在施加约束之后的同时合成光量造型图像。在这项工作中,我们建议通过重新思考鉴别者架构来提高所生成的图像的质量。重点是在给定对语义输入生成图像的问题类上,例如场景分段图或人体姿势。我们建立成功的CGAN模型,提出了一种新的语义感知鉴别器,更好地指导发电机。我们的目标是学习一个共享的潜在表示,编码足够的信息,共同进行语义分割,内容重建以及粗糙的粒度的对抗性推理。实现的改进是通用的,并且可以应用于任何条件图像合成的任何架构。我们展示了我们在场景,建筑和人类综合任务上的方法,跨越三个不同的数据集。代码可在https://github.com/vita-epfl/semdisc上获得。
translated by 谷歌翻译
在城市或拥挤的环境中,人类依赖于目光接触,以便与附近的人快速高效地沟通。自主代理还需要检测眼睛接触以与行人进行互动,并安全地浏览它们。在本文中,我们专注于野外的目光接触检测,即自动车辆的现实世界情景,无控制环境或行人的距离。我们介绍了一种模型,利用语义关键点来检测眼睛接触,并表明该高级表示(i)在公开的数据集JAAD上实现最先进的结果,并且(ii)传达比利用更好的泛化性质在端到端网络中的原始图像。为了研究域改性,我们创建了外观:野外的眼睛接触检测的大规模数据集,专注于实际概括的多样化和不受约束的情景。源代码和外观数据集公开分享开放的科学任务。
translated by 谷歌翻译
仿制学习是通过利用专家驱动程序演示的数据来学习自主驾驶政策的强大方法。然而,通过模仿学习训练的驾驶政策忽视专家演示的因果结构产生了两个不良行为:惯性和碰撞。在本文中,我们提出了因果模拟模型(CIM)来解决惯性和碰撞问题。CIM明确发现了因果模型,并利用它来培训政策。具体而言,CIM将输入解散到一组潜在变量,选择因果变量,并通过利用所选变量来确定下一个位置。我们的实验表明,我们的方法在惯性和碰撞率方面优于以前的工作。此外,由于利用因果结构,CIM仅将输入维度缩小到两个,因此,可以在几次拍摄设置中适应新环境。代码可在https://github.com/vita -epfl/cim使用。
translated by 谷歌翻译
现在是车辆轨迹预测是自动驾驶汽车的基本支柱。行业和研究社区都通过运行公共基准来承认这一柱的需求。而最先进的方法令人印象深刻,即,他们没有越野预测,他们对基准之外的城市的概括是未知的。在这项工作中,我们表明这些方法不会概括为新场景。我们提出了一种新颖的方法,可自动生成逼真的场景,导致最先进的模型越野。我们通过对抗场景生成的镜头来框架问题。我们推广基于原子场景生成功能的简单而有效的生成模型以及物理约束。我们的实验表明,可以在制作预测方法失败的方式中修改来自当前基准的超过60 000 \%$ 60 \%。我们进一步表明(i)生成的场景是现实的,因为它们确实存在于现实世界中,并且(ii)可用于使现有型号强大30-40%。代码可在https://sattack.github.io/处获得。
translated by 谷歌翻译
学习来自观察数据的行为模式一直是运动预测的遗传方法。然而,目前的范式遭受了两种缺点:协会变化下的脆性和知识转移的低效。在这项工作中,我们建议从因果表现形式解决这些挑战。我们首先介绍了运动预测的因果形式主义,这将问题作为一种动态过程,其中三组潜在变量,即不变的机制,风格混乱和虚假功能。然后我们介绍一个学习框架,分别对待每个组:(i)与从不同地点收集的数据集的共同做法不同,我们通过不变性的损失来利用它们的微妙区分,鼓励模型抑制虚假相关; (ii)我们设计了一种模块化的架构,可以修理不变机制和风格混淆的表示,以近似因果图; (iii)我们介绍了一种风格的一致性损失,不仅强制实施了风格表示的结构,而且还用作自我监控信号,以便在飞行中进行测试时间改进。合成和实时数据集的实验结果表明,我们的三个提出的组件显着提高了学习运动表示的鲁棒性和可重用性,优于出现的先前最先进的运动预测模型,用于分发外概括和低次转移。
translated by 谷歌翻译